1
지식 마감일을 넘어서: 왜 대규모 언어 모델은 외부 데이터가 필요한가
AI011Lesson 6
00:00

지식 마감일을 넘어서

대규모 언어 모델은 강력하지만, 근본적인 한계를 가지고 있습니다: 지식 마감일지식 마감일은 신뢰할 수 있는 인공지능 시스템을 구축하기 위해 정적 학습 데이터와 동적 실세계 정보 사이의 격차를 메워야 한다는 것을 의미합니다.

1. 지식 마감일 문제 (무엇인가)

LLM은 거대하지만 고정된 종료일(예: GPT-4의 2021년 9월 한도)이 있는 정적 데이터셋으로 훈련됩니다. 따라서 모델은 최근 사건, 소프트웨어 업데이트 또는 훈련 기간 이후 생성된 개인 정보에 대한 질문에 답할 수 없습니다.

2. 환각과 현실의 대비 (왜 중요한가)

알 수 없는 또는 마감일 이후의 데이터에 대해 질문받을 때, 모델은 종종 환각을 일으킵니다—사용자에게 설득력 있게 들리지만 전적으로 잘못된 사실을 만들어내어 요청을 만족시키는 것입니다. 해결책은 근거 제공외부 지식베이스에서 실시간이고 검증 가능한 맥락을 모델이 답변을 생성하기 전에 제공하는 것입니다.

3. RAG와 피팅 조정의 비교 (어떻게 작동하는가)

  • 피팅 조정: 모델 내부 가중치를 업데이트하는 것은 계산적으로 비용이 많이 들고 느리며, 빠르게 다시 오래된 상태가 되는 정적 지식을 초래합니다.
  • RAG (검색 보강 생성): 매우 비용 효율적입니다. 즉시 관련 정보를 검색하여 프롬프트에 삽입함으로써 데이터가 최신 상태임을 보장하고, 재훈련 없이 지식 베이스를 쉽게 업데이트할 수 있습니다.
개인 데이터의 공백
LLM은 검색 파이프라인을 통해 명시적으로 통합되지 않는 한, 회사 내부 매뉴얼, 재무 보고서, 또는 기밀 문서에 접근할 수 없습니다.
grounding_check.py
TERMINALbash — 80x24
> Ready. Click "Run" to execute.
>
Question 1
Why is Retrieval Augmented Generation (RAG) preferred over fine-tuning for updating an LLM's knowledge of daily news?
Fine-tuning prevents hallucinations entirely.
RAG is more cost-effective and provides up-to-date, verifiable context.
RAG permanently alters the model's internal weights.
Fine-tuning is faster to execute on a daily basis.
Question 2
What term describes an LLM's tendency to invent facts when it lacks information?
Grounding
Embedding
Hallucination
Tokenization
Challenge: Building a Support Bot
Apply RAG concepts to a real-world scenario.
You are building a support bot for a new product released today. The LLM you are using was trained two years ago.
Product Manual
Task 1
Identify the first step in the RAG pipeline to get the product manual into the system so the LLM can search it.
Solution:
Preprocessing (Cleaning and chunking the manual text into smaller, searchable segments before embedding).
Task 2
Define a "System Message" that forces the LLM to only use the provided documents and prevents hallucination.
Solution:
"Answer only using the provided context. If the answer is not in the context, state that you do not know."